Score-based diffusion models have captured widespread attention and funded fast progress of recent vision generative tasks. In this paper, we focus on diffusion model backbone which has been much neglected before. We systematically explore vision Transformers as diffusion learners for various generative tasks. With our improvements the performance of vanilla ViT-based backbone (IU-ViT) is boosted to be on par with traditional U-Net-based methods. We further provide a hypothesis on the implication of disentangling the generative backbone as an encoder-decoder structure and show proof-of-concept experiments verifying the effectiveness of a stronger encoder for generative tasks with ASymmetriC ENcoder Decoder (ASCEND). Our improvements achieve competitive results on CIFAR-10, CelebA, LSUN, CUB Bird and large-resolution text-to-image tasks. To the best of our knowledge, we are the first to successfully train a single diffusion model on text-to-image task beyond 64x64 resolution. We hope this will motivate people to rethink the modeling choices and the training pipelines for diffusion-based generative models.
translated by 谷歌翻译
The number of international benchmarking competitions is steadily increasing in various fields of machine learning (ML) research and practice. So far, however, little is known about the common practice as well as bottlenecks faced by the community in tackling the research questions posed. To shed light on the status quo of algorithm development in the specific field of biomedical imaging analysis, we designed an international survey that was issued to all participants of challenges conducted in conjunction with the IEEE ISBI 2021 and MICCAI 2021 conferences (80 competitions in total). The survey covered participants' expertise and working environments, their chosen strategies, as well as algorithm characteristics. A median of 72% challenge participants took part in the survey. According to our results, knowledge exchange was the primary incentive (70%) for participation, while the reception of prize money played only a minor role (16%). While a median of 80 working hours was spent on method development, a large portion of participants stated that they did not have enough time for method development (32%). 25% perceived the infrastructure to be a bottleneck. Overall, 94% of all solutions were deep learning-based. Of these, 84% were based on standard architectures. 43% of the respondents reported that the data samples (e.g., images) were too large to be processed at once. This was most commonly addressed by patch-based training (69%), downsampling (37%), and solving 3D analysis tasks as a series of 2D tasks. K-fold cross-validation on the training set was performed by only 37% of the participants and only 50% of the participants performed ensembling based on multiple identical models (61%) or heterogeneous models (39%). 48% of the respondents applied postprocessing steps.
translated by 谷歌翻译
网络体系结构搜索(NAS),尤其是可区分的体系结构搜索(DARTS)方法,已经显示出在特定感兴趣的特定数据集中学习出色的模型体系结构的强大力量。与使用固定的数据集相反,在这项工作中,我们关注NAS的不同但重要的方案:如何完善部署的网络模型体系结构,以增强其鲁棒性,并通过一些收集和错误分类的示例的指导来增强其鲁棒性,这些示例被某些降低了现实世界中的未知损坏具有特定的模式(例如噪声,模糊等)。为此,我们首先进行了一项实证研究,以验证模型体系结构绝对与腐败模式有关。令人惊讶的是,通过仅添加一些损坏和错误分类的示例(例如,$ 10^3 $示例)到清洁培训数据集(例如$ 5.0 \ times 10^4 $示例)中,我们可以完善模型体系结构并显着增强鲁棒性。为了使其更加实用,应仔细研究关键问题,即如何为有效的NAS指导选择适当的失败示例。然后,我们提出了一个新颖的核心失效指导飞镖,该飞镖嵌入了K-Center-Greedy算法的飞镖,以选择合适的损坏故障示例以完善模型体系结构。我们使用我们的方法在清洁和15个腐败上使用飞镖精制的DNN,并在四个特定的现实世界腐败的指导下进行了指导。与最先进的NAS以及基于数据启发的增强方法相比,我们的最终方法可以在损坏的数据集和原始清洁数据集上获得更高的精度。在某些腐败模式上,我们可以达到超过45%的绝对准确性提高。
translated by 谷歌翻译
从部分扫描中进行的3D纹理形状恢复对于许多现实世界应用至关重要。现有的方法证明了隐性功能表示的功效,但它们患有严重阻塞和不同物体类型的部分输入,这极大地阻碍了其在现实世界中的应用价值。该技术报告介绍了我们通过合并学习的几何先验来解决这些局限性的方法。为此,我们从学习的姿势预测中生成一个SMPL模型,并将其融合到部分输入中,以增加对人体的先验知识。我们还提出了一种新颖的完整性界限框适应,以处理不同级别的尺度和部分扫描的部分性。
translated by 谷歌翻译
整合多个在线社交网络(OSN)对许多下游社交挖掘任务(例如用户偏好建模,建议和链接预测)具有重要意义。但是,不幸的是,伴随着越来越多的隐私问题,泄漏敏感用户信息。如何完全利用来自不同在线社交网络的数据,同时保存用户隐私仍然无法解决。为此,我们提出了一个跨网络的社交用户嵌入框架,即DP-Crosue,以一种隐私性的方式学习用户的全面表示。我们共同考虑具有不同隐私保证的部分调整社交网络的信息。特别是,对于每个异质社交网络,我们首先引入一个混合差异隐私概念,以捕获异构数据类型的隐私期望的变化。接下来,为了找到跨社交网络的用户链接,我们进行了无监督的基于用户嵌入的对齐方式,其中通过异质网络嵌入技术实现了用户嵌入。为了进一步增强用户嵌入,一种新颖的跨网络GCN嵌入模型旨在通过那些对齐用户跨网络传输知识。在三个现实世界数据集上进行的广泛实验表明,我们的方法对用户兴趣预测任务以及捍卫用户属性推理攻击的嵌入进行了重大改进。
translated by 谷歌翻译
最近对结构偏见进行了针对情感三胞胎提取(ASTE)的利用,并改善了性能。另一方面,人们认识到,明确纳入结构偏见会对效率产生负面影响,而预验证的语言模型(PLM)已经可以捕获隐式结构。因此,出现了一个自然的问题:在PLM的背景下,结构性偏见仍然是必要的吗?为了回答这个问题,我们建议通过使用适配器在PLM中整合结构偏置并使用便宜的计算相对位置结构来代替句法依赖性结构来解决效率问题。基准评估是在Semeval数据集上进行的。结果表明,我们提出的结构适配器对PLM有益,并在一系列强大的基准范围内实现最先进的性能,但具有光参数需求和延迟较低。同时,我们引起了人们的担忧,即当前的评估默认值为小规模的数据不足。因此,我们为ASTE发布了一个大型数据集。新数据集的结果暗示,结构适配器在大规模上自信地有效和有效。总体而言,我们得出一个结论,即即使使用PLM,结构偏见仍然是必要的。
translated by 谷歌翻译
本文回顾了AIM 2022上压缩图像和视频超级分辨率的挑战。这项挑战包括两条曲目。轨道1的目标是压缩图像的超分辨率,轨迹〜2靶向压缩视频的超分辨率。在轨道1中,我们使用流行的数据集DIV2K作为培训,验证和测试集。在轨道2中,我们提出了LDV 3.0数据集,其中包含365个视频,包括LDV 2.0数据集(335个视频)和30个其他视频。在这一挑战中,有12支球队和2支球队分别提交了赛道1和赛道2的最终结果。所提出的方法和解决方案衡量了压缩图像和视频上超分辨率的最先进。提出的LDV 3.0数据集可在https://github.com/renyang-home/ldv_dataset上找到。此挑战的首页是在https://github.com/renyang-home/aim22_compresssr。
translated by 谷歌翻译
我们提出了一种新颖的有效方法,用于通过几何拓扑来解决全球点云注册问题。基于许多点云成对注册方法(例如ICP),我们关注沿任何循环的转换组成的累积误差问题。本文的主要技术贡献是仅使用泊松方程式消除错误的线性方法。我们从Hodge-Helmhotz分解定理和在现实世界场景的多个RGBD数据集中进行了实验,证明了我们方法的一致性。实验结果还表明,我们的全球注册方法运行迅速并提供准确的重建。
translated by 谷歌翻译
协作感知最近显示出具有对单一主体感知的感知能力的巨大潜力。现有的协作感知方法通常考虑理想的交流环境。但是,实际上,通信系统不可避免地遭受了延迟问题,从而导致潜在的性能降解和安全关键应用程序(例如自动驾驶)的高风险。从机器学习的角度来看,为了减轻不可避免的沟通潜伏期造成的效果,我们提出了第一个延迟感知的协作感知系统,该系统积极采用从多个代理到同一时间戳的异步感知特征,从而促进了协作的稳健性和有效性。为了实现此类特征级别的同步,我们提出了一个新型的延迟补偿模块,称为Syncnet,该模块利用特征注意的共生估计和时间调制技术。实验结果表明,在最新的协作感知数据集V2X-SIM上,我们的方法优于最先进的协作感知方法15.6%。
translated by 谷歌翻译
寻找两人差异游戏的NASH平衡政策需要解决汉密尔顿 - 雅各布-ISAACS PDES。最近的研究通过采用自我监督(物理知识的)神经网络作为通用价值近似值,在解决这种PDE方面的诅咒方面取得了成功。本文从具有连续值的零和零游戏上的SOTA延伸到具有不连续值的通用游戏,其中不连续性是由玩家的损失引起的。我们表明,由于缺乏对不连续损失的融合证明和概括分析,现有的自我监督学习技术未能概括并引起自动驾驶应用程序中的安全问题。我们的解决方案是首先先预先培训纳什平衡的价值网络,然后通过最大程度地减少将监督数据与PDE和边界条件相结合的损失来对其进行完善。重要的是,提出的学习方法的证明优势针对纯监督和自我监督的方法需要仔细选择神经激活功能:在$ \ texttt {relu} $中} $,我们表明$ \ texttt {tanh} $是实现最佳概括和安全性能的唯一选择。我们的猜想是$ \ texttt {tanh} $(类似于$ \ texttt {sin} $)允许价值连续性及其梯度,这足以满足学习的收敛性,同时也足够表达(类似于$ \ texttt {relu} $)以近似值的价值景观。最后,我们将我们的方法应用于近似控制策略的不完整信息相互作用,并证明了其对安全相互作用的贡献。
translated by 谷歌翻译